Deep neural networks are being used increasingly to automate data analysis and decision making, yet their decision-making process is largely unclear and is difficult to explain to the end users. In this paper, we address the problem of Explainable AI for deep neural networks that take images as input and output a class probability. We propose an approach called RISE that generates an importance map indicating how salient each pixel is for the model's prediction. In contrast to white-box approaches that estimate pixel importance using gradients or other internal network state, RISE works on blackbox models. It estimates importance empirically by probing the model with randomly masked versions of the input image and obtaining the corresponding outputs. We compare our approach to state-of-the-art importance extraction methods using both an automatic deletion/insertion metric and a pointing metric based on human-annotated object segments. Extensive experiments on several benchmark datasets show that our approach matches or exceeds the performance of other methods, including white-box approaches.
translated by 谷歌翻译
Machine learning model development and optimisation can be a rather cumbersome and resource-intensive process. Custom models are often more difficult to build and deploy, and they require infrastructure and expertise which are often costly to acquire and maintain. Machine learning product development lifecycle must take into account the need to navigate the difficulties of developing and deploying machine learning models. evoML is an AI-powered tool that provides automated functionalities in machine learning model development, optimisation, and model code optimisation. Core functionalities of evoML include data cleaning, exploratory analysis, feature analysis and generation, model optimisation, model evaluation, model code optimisation, and model deployment. Additionally, a key feature of evoML is that it embeds code and model optimisation into the model development process, and includes multi-objective optimisation capabilities.
translated by 谷歌翻译
预测量子电路的输出是一项硬计算任务,在通用量子计算机的开发中起着关键作用。在这里,我们研究了随机量子电路的输出期望值的监督学习。深层卷积神经网络(CNN)经过训练,可以使用经典模拟电路的数据库来预测单量和两数分的期望值。这些电路通过适当设计的组成门编码来表示。分析了以前看不见的电路的预测准确性,还可以与免费的IBM量子程序获得的小规模量子计算机进行比较。 CNN通常取决于电路深度,网络深度和训练集尺寸,通常优于量子设备。值得注意的是,我们的CNN被设计为可扩展。这使我们可以利用转移学习和执行外推,以比培训集中包含的电路更大。这些CNN还表现出对噪声的显着弹性,即,即使在很少的测量值中进行了(模拟)期望值的训练,它们仍然是准确的。
translated by 谷歌翻译
确定数据集中的有意义和独立因素是一个充满挑战的学习任务,经常通过深度潜变量模型解决。可以将此任务视为保留所选属性的值的学习对称转换沿潜在维度。然而,现有方法在实施潜在空间中的不变性属性方面表现出严重的缺点。我们以一种新的方法来解决这些缺点来循环一致性。我们的方法涉及目标属性的两个单独的潜在子页和剩余的输入信息。为了强制执行潜伏空间中的不变性以及稀疏性,我们通过使用依赖属性侧信息的周期一致性约束来融合语义知识。该方法基于深度信息瓶颈,与其他方法相比,允许使用连续目标属性并提供固有的模型选择能力。我们展示了我们的方法识别出更有意义的因素的综合和分子数据,这导致稀疏和更具可解释的模型,具有改善的不变性属性。
translated by 谷歌翻译
本研究提出了一种通过将印刷层的图像与基于G代码的参考图像与搅拌器产生的理想过程的参考图像进行比较来检测3D打印异常的开源方法。通过分析局部图像区域的导向梯度(HOG)直方图的相似性来实现对视觉偏差的认识。开发技术需要初步建模工作环境,以实现最佳方向,色彩渲染,照明和印刷部分的其他参数。算法的输出是印刷和合成参考层之间的不匹配水平。实现了12个相似性和距离措施,并在检测六种不同代表性故障类型及其控制无差错打印图像上检测3D打印误差时的有效性。结果表明,虽然Kendall Tau,Jaccard和Sorensen相似之处是最敏感,Pearson R,Spearman Rho,余弦,骰子相似性产生更可靠的结果。该开源方法允许该程序注意其发生的早期阶段中的严重错误,并且暂停制造过程,以便通过操作员或将来的AI控制的自动纠错进一步调查。这种新方法的实施不需要训练的初步数据,并且可以通过相同几何形状的添加剂或减法制造来实现最大的效率。可以得出结论,这种开源方法是使用复杂原料以及其他具有挑战性的制造环境来实现适应性制造的智能分布回收的有希望的方法。
translated by 谷歌翻译
许多政府举措(例如欧盟的GDPR)正在得出结论,即现代软件系统的越来越复杂程度必须与对这些工具的影响评估的一些权利和指标形成鲜明对比,使人们能够理解和监督产出自动化决策系统。可解释的ai诞生于允许人类探索和理解复杂系统的内部工作的途径。但是,建立什么是解释和客观地评估可解释性,不是琐碎的任务。通过本文,我们提出了一种新的模型 - 不可知性的指标,以测量以客观方式测量(正确)信息的解释程度,利用普通语言哲学的特定理论模型,称为ACHINSTEIN的解释理论,通过依赖于算法实现知识图提取和信息检索的深语模型。为了了解这种度量是否实际表现为可解释性,我们已经设计了一些实验和用户研究,涉及超过160名参与者评估了使用包括人工神经网络的着名AI技术的医疗保健和金融的基于医疗保健和金融的基于医疗保健系统和treeshap。我们获得的结果非常令人鼓舞,这表明我们拟议的测量可解释程度的指标对若干情景是强大的,并且最终可以利用自动决策系统的合法影响评估。
translated by 谷歌翻译